Quand un faux Joe Biden demande aux électeurs de ne pas aller voter


Le week-end dernier, plusieurs électeurs ont reçu un appel de ce qui semblait être Joe Biden, les invitant à ne pas aller voter lors de la Primaire démocrate dans un État américain : un énième cas d’utilisation de l’IA à des fins de désinformation, dans un contexte électoral, qui inquiète de nombreux experts.

Nouvel épisode d’utilisation de l’IA à des fins politiques outre Atlantique : ces derniers jours, les électeurs du New Hampshire, un État américain où se déroule ce mardi 23 janvier les primaires démocrates, ont pu recevoir un appel téléphonique particulier. Au bout du fil, on pouvait entendre Joe Biden, le président sortant démocrate, déclarer : « Ce ne sont que des balivernes. Votre vote fera la différence en novembre, pas ce mardi ». Le chef d’État américain invitait les électeurs à ne pas aller voter, rapporte Associated Press, ce mardi 23 janvier. Son expéditeur semblait – à tort – provenir du numéro personnel de Kathy Sullivan, une ancienne présidente du parti démocrate du New Hampshire, qui soutient Joe Biden. Or, la femme politique n’a jamais passé ces coups de fil – elle a porté plainte. Tout comme Joe Biden n’a jamais prononcé ces mots.

« Les électeurs du New Hampshire ne doivent absolument pas tenir compte du contenu de ce message », a alerté le bureau du procureur général dans un communiqué publié lundi 22 janvier. Selon ce dernier, ces appels « semblent constituer une tentative illégale de perturber l’élection primaire présidentielle du New Hampshire et d’empêcher les électeurs de voter ». La Maison-Blanche, par la voix de son service communication, a confirmé que l’appel « était effectivement faux et n’avait pas été enregistré par le Président ».

L’ère de la désinformation en masse ou personnalisée ?

Aux États-Unis, où la prochaine élection présidentielle aura lieu à la fin de l’année, il est courant que les candidats pré-enregistrent des messages qui sont ensuite diffusés par téléphone. Mais depuis que l’IA générative est devenue une technologie accessible et pour l’instant quasi gratuite pour les utilisateurs, les inquiétudes ne cessent de croitre quant à son utilisation à des fins de manipulation politique. On se souvient des premières photos du pape en doudoune blanche. D’autres usages, plus politiques, ont suivi : vidéo destinée à discréditer Joe Biden, dépeignant un futur apocalyptique en cas de réélection du président démocrate, voix générée de Donald Trump destinée à le dénigrer … À mesure que les primaires se sont rapprochées, les cas se sont multipliés. Les craintes sont aussi montées crescendo.

Comment en effet empêcher que cette technologie, qui permet de dupliquer une voix ou de générer une « deepfake », ces fausses vidéos qui paraissent vraies, ne soit utilisée à mauvais escient pour manipuler les électeurs, s’interrogeait par exemple le CEPS (Centre de Politique Européenne), un think tank européen. D’autant qu’il est désormais facile, rapide et bon marché de créer des contenus « de désinformation personnalisée ». Le problème est d’autant plus grand qu’aujourd’hui, aucun instrument juridique ou technique actuellement en place en Europe ne réussira à enrayer la diffusion de contenus trompeurs générés ou diffusés massivement par l’IA pendant les élections, alertait le CEPS. Et le constat est similaire outre Atlantique, bien que certains États américains aient tenté d’y remédier.

À lire aussi : Avec ChatGPT, le spectre de la désinformation ciblée et sur-mesure pendant les campagnes électorales

Les développeurs mettent à jour leurs conditions générales d’utilisation

La Californie, le Michigan, le Minnesota, le Texas et Washington, ont adopté des lois interdisant aux politiques d’utiliser des « deepfakes » pendant les campagnes électorales. Les développeurs d’IA ont aussi pris la mesure du problème, en modifiant leurs conditions générales pour exclure le développement de chatbots de candidats – qui répondraient en lieu et place de tel homme ou telle femme politique. OpenAI, la start-up à l’origine de ChatGPT, a aussi prohibé l’utilisation de sa technologie pour les campagnes politiques. L’usurpation de l’identité d’une personne sans son consentement est totalement proscrite. L’entreprise de Sam Altman a même récemment supprimé un compte qui violait cette règle – ce dernier avait développé un ChatGPT qui imitait un membre du Congrès, Dean Phillips (en lice pour la Primaire démocrate).

À lire aussi : OpenAI bannit un ChatGPT qui imite un candidat à la présidence américaine

Mais comment éviter que des individus utilisent l’IA, accessible à tous, pour créer et diffuser de la désinformation ? Faut-il imposer la mention « Généré par l’IA » à tout contenu utilisant l’IA, et comment l’imposer ? Les autorités n’ont pas encore trouvé de solutions. En attendant, OpenAI cherche activement un chargé de programme pour les élections en Europe, au Moyen-Orient et en Afrique, relève The Register, ce mardi 23 janvier. Sa mission : identifier les risques liés aux élections, et concevoir et déployer des « stratégies d’atténuation ». Salaire annuel à la clé : 190 000 dollars.

? Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Associated Press



Source
Catégorie article Produits

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.